异常的可视化和检测异常(异常值)对许多领域,特别是网络安全的重要性至关重要。在这些领域提出了几种方法,但我们的知识迄今为止,它们都不是在一个相干框架中同时或合作地满足了两个目标。引入了这些方法的可视化方法,用于解释检测算法的输出,而不是用于促进独立视觉检测的数据探测。这是我们的出发点:未经避免,不审视和非分析方法,对Vission(人类流程)和检测(算法)的异常值,分配不变的异常分数(标准化为$ [0,1] $) ,而不是硬二元决定。 Novely的新颖性的主要方面是它将数据转换为新的空间,该空间是在本文中引入的作为邻域累积密度函数(NCDF),其中进行了可视化和检测。在该空间中,异常值非常明显可区分,因此检测算法分配的异常分数在ROC曲线(AUC)下实现了高区域。我们在模拟和最近公布的网络安全数据集中评估了不避免,并将其与其中的三种最成功的异常检测方法进行比较:LOF,IF和FABOD。就AUC而言,不避免几乎是整体胜利者。这篇文章通过提供了对未避免的新理论和实际途径的预测来了解。其中包括设计一种可视化辅助异常检测(Vaad),一种软件通过提供不避免的检测算法(在后发动机中运行),NCDF可视化空间(呈现为绘图)以及其他传统方法在原始特征空间中的可视化,所有这些都在一个交互环境中链接。
translated by 谷歌翻译
本文探讨了二进制分类问题中分类器输出分数的校准。校准器是将测试观察的任意分类器分数映射到$ [0,1] $映射的函数,以便提供属于两类之一的后验概率的估计。校准是有两个原因的重要性;首先,它提供了有意义的分数,即后验概率;其次,它将不同分类器的分数放在相同的比例上以获得可比解释。本文提出了三个主要贡献:(1)当多个分类器提供单个观察的分数时,引入多种分数校准。 (2)介绍分类器分数到校准过程的想法只不过是分类器的特征,因此建议将分类器分数扩展到更高的维度以提高校准器的性能。 (3)除了在从网络安全域中的两个真实数据集上试验不同配置的24,000实验,进行大规模模拟研究。结果表明,不同的校准器和不同的配置中没有整体赢家。但是,从业者的一般建议包括以下内容:Platt的校准器〜\ citep {platt1999probabilisticututsforsupport},降低小样本大小偏差的逻辑回归的版本,在所有实验中具有非常稳定和可接受的性能;我们建议的多种分数校准提供了比大多数实验中的单一分数校准更好的性能,包括两个实际数据集。此外,扩大得分可以有助于一些实验。
translated by 谷歌翻译
Graph neural networks (GNNs) are susceptible to privacy inference attacks (PIAs), given their ability to learn joint representation from features and edges among nodes in graph data. To prevent privacy leakages in GNNs, we propose a novel heterogeneous randomized response (HeteroRR) mechanism to protect nodes' features and edges against PIAs under differential privacy (DP) guarantees without an undue cost of data and model utility in training GNNs. Our idea is to balance the importance and sensitivity of nodes' features and edges in redistributing the privacy budgets since some features and edges are more sensitive or important to the model utility than others. As a result, we derive significantly better randomization probabilities and tighter error bounds at both levels of nodes' features and edges departing from existing approaches, thus enabling us to maintain high data utility for training GNNs. An extensive theoretical and empirical analysis using benchmark datasets shows that HeteroRR significantly outperforms various baselines in terms of model utility under rigorous privacy protection for both nodes' features and edges. That enables us to defend PIAs in DP-preserving GNNs effectively.
translated by 谷歌翻译
对黑暗时代和系外行星(Farside)进行无线电科学调查的遥远阵列是对Lunar Far Side的拟议任务概念,试图在100正方形的区域内部署和操作128双极化的阵列,偶极天线公里。所得的干涉射电望远镜将提供遥远恒星系统的前所未有的无线电图像,从而可以研究冠状质量弹出和能量颗粒事件的微弱无线电特征,还可以导致在其母星的居住区内检测到磁层周围的磁层。同时,Farside还将在一系列红移(z大约50-100)中以全球21厘米信号的全局信号来测量早期宇宙的“黑暗年龄”。阵列中的每个离散天线节点都通过通信和电源系绳连接到中央集线器(位于降落器)。节点是由Cold =可操作的电子设备驱动的,该电子设备连续监测极宽的频率(200 kHz至40 MHz),该频率超过了基于地球的望远镜的能力,该望远镜的功能由两个数量级。实现这种开创性的能力需要在月球表面上制定强大的部署策略,这对于现有高的TRL技术(演示或正在积极发展)是可行的,并且能够在下一代商业地面上传递到地​​表,例如蓝色Origin的蓝月亮着陆器。本文介绍了一种天线包装,放置和表面部署贸易研究,该研究利用了NASA的Jet Propuls实验室开发的束缚移动机器人的最新进展,该机器人用于部署平坦的,天线隔离的,带有光学通信和电源传输的磁带。功能。
translated by 谷歌翻译
特洛伊木马后门是针对神经网络(NN)分类器的中毒攻击,对手试图利用(高度理想的)模型重用属性将特洛伊木马植入模型参数中,以通过中毒训练过程进行后门漏洞。大多数针对特洛伊木马攻击的防御措施都假设了白盒设置,其中防守者可以访问NN的内部状态,或者能够通过它进行后传播。在这项工作中,我们提出了一个更实用的黑盒防御,称为Trojdef,只能在NN上进行前进。 Trojdef试图通过监视输入因随机噪声反复扰动预测置信度的变化来识别和滤除特洛伊木马输入(即用Trojan触发器增强的输入)。我们根据预测输出得出一个函数,该函数称为预测置信度,以决定输入示例是否为特洛伊木马。直觉是,由于错误分类仅取决于触发因素,因此特洛伊木马的输入更加稳定,而由于分类特征的扰动,良性输入会受到损失。通过数学分析,我们表明,如果攻击者在注入后门时是完美的,则将训练特洛伊木马感染的模型以学习适当的预测置信度结合,该模型用于区分特洛伊木马和良性输入,并在任意扰动下。但是,由于攻击者在注入后门时可能不是完美的,因此我们将非线性转换引入了预测置信度,以提高实际环境中的检测准确性。广泛的经验评估表明,即使分类器体系结构,培训过程或超参数变化,Trojdef的表现明显优于州的防御能力,并且在不同的设置下也很稳定。
translated by 谷歌翻译
电子健康记录(EHR)可获得的丰富纵向个体水平数据可用于检查治疗效果异质性。但是,使用EHR数据估算治疗效果提出了几个挑战,包括时变的混杂,重复和时间不一致的协变量测量,治疗分配和结果以及由于辍学导致的损失。在这里,我们开发了纵向数据(SDLD)算法的亚组发现,该算法是一种基于树的算法,用于使用纵向相互作用树算法结合使用纵向相互作用的一般数据驱动的方法,与纵向驱动的方法与纵向驱动的方法结合使用纵向相互作用,以发现具有异质治疗效果的亚组,并进行纵向研究。目标最大似然估计。我们将算法应用于EHR数据,以发现患有人免疫缺陷病毒(HIV)的人群的亚组,他们在接受非Dolutegravir抗逆转录病毒疗法(ART)接受非Dolutegravir抗逆转录病毒疗法(艺术)时的体重增加风险较高。
translated by 谷歌翻译
深度学习模型容易受到对抗性例子的影响,用于产生此类示例的对抗性攻击引起了相当大的研究兴趣。尽管基于最陡峭下降的现有方法已经取得了很高的攻击成功率,但条件不足的问题偶尔会降低其性能。为了解决此限制,我们利用了对这种类型问题有效的共轭梯度(CG)方法,并提出了一种受CG方法启发的新型攻击算法,称为自动结合梯度(ACG)攻击。在最新的健壮模型上进行的大规模评估实验的结果表明,对于大多数模型而言,ACG能够找到比现有SOTA算法自动PGD(APGD)更少迭代的对抗性示例。我们研究了ACG和APGD在多元化和强化方面的搜索性能差异,并定义了一种称为多样性指数(DI)的度量,以量化多样性的程度。从使用该指数对多样性的分析中,我们表明对所提出方法的更多样化的搜索显着提高了其攻击成功率。
translated by 谷歌翻译
该报告概述了建模变革性AI风险(MTAIR)项目的工作,试图在有关高级AI的灾难性风险及其之间的关系中绘制关键的假设,不确定性和分歧。这是基于Ben Cottier和Rohin Shah的较早图,它们以视觉上列出了一些关键分歧(“ Cruxes”),并进行了一些解释。根据广泛的文献综述和与专家的参与,该报告解释了涉及的问题的模型以及最初的基于软件的实施,该实施可以纳入概率估计或其他定量因素,以实现探索,计划和/或决策支持。通过将各种辩论和讨论中的信息收集到一个更连贯的演讲中,我们希望能够更好地讨论和辩论有关的问题。该模型从通过类比的推理和对人工智能的一般性信念进行讨论开始。此后,它提出了一个不同的路径模型,并为高级机器智能提供了技术,以及这些系统能力的进步如何进行的模型,包括有关自我支持,不连续改进的辩论以及的可能性以及分布式,非代理高级智能或较慢的改进。该模型还专门研究了学习优化的问题,以及机器学习系统是否会创建MESA-OPTIMIZES。然后检查了不同的安全研究对先前问题集的影响,以了解研究以及如何在实现更安全的系统中有用。最后,我们讨论了一个不同的故障模式的模型以及控制或接管场景的丧失。
translated by 谷歌翻译
强化学习(RL)为解决各种复杂的决策任务提供了新的机会。但是,现代的RL算法,例如,深Q学习是基于深层神经网络,在Edge设备上运行时的计算成本很高。在本文中,我们提出了QHD,一种高度增强的学习,它模仿了大脑特性,以实现健壮和实时学习。 QHD依靠轻巧的大脑启发模型来学习未知环境中的最佳政策。我们首先建立一个新颖的数学基础和编码模块,该模块将状态行动空间映射到高维空间中。因此,我们开发了一个高维回归模型,以近似Q值函数。 QHD驱动的代理通过比较每个可能动作的Q值来做出决定。我们评估了不同的RL培训批量和本地记忆能力对QHD学习质量的影响。我们的QHD也能够以微小的本地记忆能力在线学习,这与培训批量大小一样小。 QHD通过进一步降低记忆容量和批处理大小来提供实时学习。这使得QHD适用于在边缘环境中高效的增强学习,这对于支持在线和实时学习至关重要。我们的解决方案还支持少量的重播批量大小,与DQN相比,该批量的速度为12.3倍,同时确保质量损失最小。我们的评估显示了实时学习的QHD能力,比最先进的Deep RL算法提供了34.6倍的速度和更高的学习质量。
translated by 谷歌翻译
With the increasing growth of information through smart devices, increasing the quality level of human life requires various computational paradigms presentation including the Internet of Things, fog, and cloud. Between these three paradigms, the cloud computing paradigm as an emerging technology adds cloud layer services to the edge of the network so that resource allocation operations occur close to the end-user to reduce resource processing time and network traffic overhead. Hence, the resource allocation problem for its providers in terms of presenting a suitable platform, by using computational paradigms is considered a challenge. In general, resource allocation approaches are divided into two methods, including auction-based methods(goal, increase profits for service providers-increase user satisfaction and usability) and optimization-based methods(energy, cost, network exploitation, Runtime, reduction of time delay). In this paper, according to the latest scientific achievements, a comprehensive literature study (CLS) on artificial intelligence methods based on resource allocation optimization without considering auction-based methods in various computing environments are provided such as cloud computing, Vehicular Fog Computing, wireless, IoT, vehicular networks, 5G networks, vehicular cloud architecture,machine-to-machine communication(M2M),Train-to-Train(T2T) communication network, Peer-to-Peer(P2P) network. Since deep learning methods based on artificial intelligence are used as the most important methods in resource allocation problems; Therefore, in this paper, resource allocation approaches based on deep learning are also used in the mentioned computational environments such as deep reinforcement learning, Q-learning technique, reinforcement learning, online learning, and also Classical learning methods such as Bayesian learning, Cummins clustering, Markov decision process.
translated by 谷歌翻译